马斯克宣布xAI下一代模型Grok 5推迟至2026年Q1发布,参数量达6万亿,原生支持视频理解,号称“每GB智能密度”创纪录。采用多模态MoE架构,可解析长视频并回答时序问题,目标领跑通用AI竞赛。训练使用X平台实时数据,正扩建GPU集群。同时披露特斯拉Optimus人形机器人进展。
MiroMind开源bAgent模型MiroThinker v1.0,具备256K上下文窗口和单次600次工具调用能力。创新提出“深度交互Scaling”框架,通过高频环境交互与实时反馈替代传统参数堆叠,实现智能体自我进化。模型集成搜索、Linux沙箱、代码执行等工具链,可在数小时内自主完成复杂任务,如官方示例中通过600轮调用处理食谱和计算热量。
谷歌Gemini3通过Canvas功能提前展示多模态能力,可将《我的世界》与塔防游戏结合成网页,复刻Switch模拟器运行宝可梦,被誉“最强前端AI”。其他案例包括生成新粗野主义网页、黑洞可视化、交互风扇和YouTube克隆,均以单HTML文件实现,引爆开发者社群。
小米更新超级小爱至v7.8.50版,新增“随心修图”功能。用户可通过自然语言指令,利用AI模型自动修图,支持多模态交互识别屏幕和摄像头画面。操作方式包括在相册唤醒小爱或通过App上传照片并输入文字,系统自动完成色彩增强、背景虚化等处理。
Marble可让用户通过简单提示创建、编辑和分享高保真3D世界。
Call Connector AI助力律所自动记录通话,捕获每一分钟可计费时间
每日更新AI研究新闻,涵盖多领域,用通俗语言解释
集成多AI模型,可通过对话生成图像、视频和声音,优化创意流程。
alibaba
$0.72
Input tokens/M
Output tokens/M
128k
Context Length
openai
$108
$432
200k
mistral
-
anthropic
$21.6
google
1M
ai2
$6.48
nvidia
$0.65
131.1k
deepseek
$1.01
$2.02
2M
8.2k
nous-research
azure
$0.36
65.4k
inferencerlabs
Kimi - K2 - Thinking 3.825bit MLX 是一款用于文本生成的量化模型,通过不同的量化方式在测试中取得不同的困惑度表现,其中q3.825bit量化能达到1.256的困惑度。
DarwinAnim8or
Prima-24B是一个240亿参数的大语言模型,通过GGUF格式进行量化优化,专门针对角色扮演和创意写作任务进行了优化。该模型基于原始Prima-24B模型转换而来,采用Q4_K_M量化级别,在保持良好性能的同时显著减小了模型大小和内存需求。
DevQuasar
本项目基于 moonshotai/Kimi-K2-Thinking 基础模型,通过自定义反量化脚本将原始的INT4模型转换为更高质量的文本生成模型,致力于让知识为每个人所用。
renderartist
Technically Color WAN 2.2是一款专为生成经典电影风格图像而设计的LoRA模型,通过鲜艳调色板、丰富饱和度和戏剧性灯光效果,让生成的图像具有经典电影的独特视觉魅力。
DavidAU
这是一个增强版的多模态视觉语言模型,基于Qwen3-VL-8B-Thinking模型,通过Brainstorm 20x技术扩展至12B参数,采用NEO Imatrix增强的GGUF量化。模型具备强大的图像理解、文本生成和多模态推理能力,在视觉感知、文本质量和创意场景方面都有显著提升。
unsloth
Qwen3-Coder-REAP-363B-A35B是通过REAP方法对Qwen3-Coder-480B-A35B-Instruct进行25%专家剪枝得到的稀疏混合专家模型,在保持接近原模型性能的同时显著降低了参数规模和内存需求,特别适用于资源受限的代码生成和智能编码场景。
noctrex
这是 aquif-3.5-Plus-30B-A3B 模型的 MXFP4_MOE 量化版本,通过量化技术显著降低了模型资源占用,同时保持了相近的性能表现,具有较高的工程实践价值。
kirankumarpetlu
这是一个基于Google Gemma-2B-IT基础模型,使用PEFT(参数高效微调)和LoRA技术进行优化的文本生成模型。该模型通过参数高效的方法在保持基础模型能力的同时,针对特定任务进行了优化。
这是一个基于Qwen3-VL-30B的量化版本模型,专门用于图像文本到文本的转换任务。该模型通过量化技术优化了原始模型,提供了更高效的推理解决方案。
Qwen3-VL是通义系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力以及出色的智能体交互能力。
这是一个基于Huihui-Qwen3-VL-4B-Instruct-abliterated模型的量化版本,专门用于图像文本到文本的转换任务,通过量化处理优化了模型性能,为多模态应用提供支持。
Qwen3-VL-8B-Thinking是通义千问系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力,以及出色的智能体交互能力。
Qwen3-VL是通义系列中最强大的视觉语言模型,在文本理解与生成、视觉感知与推理、上下文长度、空间和视频动态理解以及智能体交互能力等方面全面升级。该模型提供密集架构和混合专家架构,支持从边缘设备到云端的灵活部署。
MiniMax-M2是一款专为最大化编码和智能体工作流程而构建的小型混合专家模型,总参数达2300亿,激活参数为100亿。该模型在编码和智能体任务中表现卓越,同时保持强大的通用智能,具有紧凑、快速且经济高效的特点。
mlx-community
这是一个基于 Kimi-Linear-48B-A3B-Instruct 模型转换的 6 位量化版本,专为 Apple MLX 框架优化。该模型保留了原模型强大的指令跟随能力,同时通过量化技术显著降低了存储和计算需求,适合在 Apple 硬件上高效运行。
GilbertAkham
这是一个基于DeepSeek-R1-Distill-Qwen-1.5B的多任务微调模型,通过LoRA适配器在多个数据集上进行训练,具备强大的多任务泛化和推理能力,能够处理广泛的自然语言和基于推理的任务。
Smith-3
这是一个专为圣西蒙大学科学与技术学院学生设计的微调AI模型,集成在TecnoTime应用程序中,帮助学生保持学习组织性、提高学术连续性,通过结构化通知和激励信息强化学习习惯。
SadraCoding
SDXL-Deepfake-Detector 是一款精准检测 AI 生成人脸的工具,专注于维护数字世界的真实性,为抵御视觉虚假信息提供隐私保护且开源的解决方案。该模型通过微调预训练模型实现轻量级且高准确率的检测。
Qwen
Qwen3-VL-30B-A3B-Thinking是通义系列中最强大的视觉语言模型,具备出色的文本理解和生成能力、深入的视觉感知和推理能力、长上下文支持、强大的空间和视频动态理解能力,以及智能体交互能力。
Qwen3-VL是通义系列最强大的视觉语言模型,采用混合专家模型架构(MoE),提供GGUF格式权重,支持在CPU、GPU等设备上进行高效推理。模型在文本理解、视觉感知、空间理解、视频处理等方面全面升级。
Exa MCP Server是一个为AI助手(如Claude)提供网络搜索功能的服务器,通过Exa AI搜索API实现实时、安全的网络信息获取。
Supergateway是一个工具,用于将基于标准输入输出的MCP服务器转换为通过SSE或WebSocket访问的服务,方便远程调试和集成。
Deebo是一个AI调试助手,能够加速代码错误的解决过程,通过自动化调查和多线程工作流提升开发效率。
该项目为Notion API实现了一个MCP服务器,允许通过模型上下文协议访问和操作Notion内容,支持搜索、评论、添加页面等功能。
BrowserTools MCP是一个强大的浏览器监控与交互工具,通过Chrome扩展和本地服务器实现AI对浏览器的智能分析与操作。
MCP Unity是一个实现Model Context Protocol的Unity编辑器扩展,通过Node.js服务器桥接AI助手与Unity项目的交互,提供菜单执行、对象选择、组件更新等功能。
AbletonMCP是一个连接Ableton Live和Claude AI的集成工具,通过Model Context Protocol(MCP)实现双向通信,让AI可以直接控制和操作Ableton Live进行音乐创作和制作。
Eino是一个专为Golang设计的LLM应用开发框架,旨在通过简洁、可扩展、可靠且高效的组件抽象和编排能力,简化AI应用开发流程。它提供丰富的组件库、强大的图形编排功能、完整的流处理支持以及高度可扩展的切面机制,覆盖从开发到部署的全周期工具链。
一个基于MCP协议的Kubernetes集群管理服务器,支持通过命令行或聊天界面与Kubernetes集群交互,提供资源管理、Helm图表操作等功能。
AWS MCP Servers是一套基于Model Context Protocol的专用服务器,提供多种AWS相关功能,包括文档检索、知识库查询、CDK最佳实践、成本分析、图像生成等,旨在通过标准化协议增强AI应用与AWS服务的集成。
IDA Pro MCP是一个用于逆向工程的服务器插件,通过MCP协议与客户端工具交互,提供函数分析、注释修改、变量重命名等功能,支持多种MCP客户端如Cline、Roo Code等。
该项目是一个MCP服务器,用于通过Obsidian的Local REST API插件与Obsidian笔记应用交互。它提供了多种工具来操作和管理Obsidian中的文件,包括列出文件、获取文件内容、搜索、修改内容和删除文件等。
mcpo是一个简单易用的代理工具,可将任何MCP工具快速转换为兼容OpenAPI的HTTP服务器,使其能够通过标准RESTful接口访问,方便与LLM代理和应用集成。
Cipher是一个专为编程AI代理设计的开源记忆层框架,通过MCP协议与各种IDE和AI编码助手集成,提供自动记忆生成、团队记忆共享和双系统记忆管理等核心功能。
FastMCP是一个基于TypeScript的框架,用于构建支持客户端会话的MCP服务器。它提供了工具、资源和提示的简单定义,支持认证、会话管理、图像和音频内容返回、日志记录、错误处理、SSE通信等功能,并包含CLI工具用于测试和调试。
Cognee是一个为AI代理提供记忆功能的开源项目,通过模块化ECL管道构建动态知识图谱,支持多种数据源和格式,减少幻觉并降低成本。
mcp-proxy是一个实现服务器传输协议转换的工具,支持在SSE和stdio两种模式间进行代理转换,便于不同客户端与服务器间的通信适配。
Browser MCP是一个MCP服务器+Chrome扩展,通过AI应用(如VS Code、Claude等)实现浏览器自动化操作,具有快速、隐私保护、保持登录状态和规避检测等特点。
Supabase MCP Server是一个连接Supabase项目与AI助手的工具,通过Model Context Protocol(MCP)标准化大型语言模型(LLMs)与外部服务的交互,实现数据库管理、配置获取和数据查询等功能。
ArXiv MCP Server是一个连接AI助手与arXiv研究库的桥梁,通过MCP协议实现论文搜索和内容访问功能。